Compania din spatele ChatGPT e criticată dur după ce a revendicat aurul la Olimpiada Internațională de Matematică
Modelele de inteligență artificială dezvoltate de echipele de la DeepMind, proiectul-fanion de cercetare în A.I. al Google, și OpenAI, compania din spatele ChatGPT au mai adăugat o realizare pe lista lor de succese: medalia de aur la Olimpiada Internațională de Matematică, relatează Gizmodo.
Ambele companii au susținut că au obținut o medalie de aur la Olimpiada Internațională de Matematică (IMO) din acest an, una dintre cele mai dificile competiții destinate elevilor de liceu care vor să-și demonstreze abilitățile matematice.
Olimpiada invită cei mai buni elevi din întreaga lume să participe la un examen care le cere să rezolve o serie de probleme matematice complexe, în mai mulți pași. Elevii susțin două examene a câte patru ore și jumătate, în două zile consecutive, având de rezolvat un total de șase probleme, fiecare cu punctaje diferite în funcție de părțile completate corect.
Modelele de la DeepMind și OpenAI au rezolvat perfect cinci din cele șase probleme, obținând un scor total de 35 din 42 de puncte posibile – suficient pentru medalia de aur. În total, 67 de elevi dintre cei 630 înscriși au reușit, de asemenea, să obțină această distincție.
OpenAI nu a fost invitată la Olimpiada Internațională de Matematică
„Există însă un mic detaliu care nu are legătură cu rezultatele, ci mai degrabă cu comportamentul companiilor”, subliniază Gizmodo, un important site specializat în tehnologie:
DeepMind a fost invitată să participe oficial la IMO și și-a anunțat medalia de aur luni, printr-un mesaj publicat pe blogul său, după ce organizația care organizează olimpiada a publicat rezultatele oficiale pentru elevi.
OpenAI nu a participat însă propriu-zis la IMO. În schimb, compania a luat problemele – care sunt făcute publice pentru ca oricine să încerce să le rezolve – și le-a abordat pe cont propriu. OpenAI a anunțat că a avut un rezultat de nivelul necesar medaliei de aur, dar acest lucru nu poate fi verificat de către IMO, deoarece compania nu a fost înscrisă oficial.
Mai mult, OpenAI și-a anunțat scorul în weekend, înainte de ziua oficială de publicare a rezultatelor (luni), în ciuda rugăminții IMO ca firmele să nu le fure momentul de glorie elevilor.
De ce sunt interesante rezultatele echivalente medaliei de aur pentru elevi
Modelele utilizate pentru rezolvarea acestor probleme au participat la examen în aceleași condiții ca elevii: au avut la dispoziție câte 4,5 ore pentru fiecare probă și nu au avut voie să folosească unelte externe sau să acceseze internetul.
Un lucru remarcabil este faptul că ambele companii par să fi folosit modele A.I. generaliste, nu unele specializate – deși modelele specializate au avut în trecut rezultate semnificativ mai bune decât cele de tip „face de toate”.
Un alt lucru interesant legat de revendicarea medaliei de aur este că niciunul dintre modelele care au obținut rezultatul necesar nu este disponibil public. De fapt, modelele publice au avut performanțe dezastruoase la această sarcină.
Cercetătorii au testat problemele pe Gemini 2.5 Pro, Grok-4 și OpenAI o4, iar niciunul dintre acestea nu a reușit să obțină mai mult de 13 puncte – sub pragul de 19 necesar pentru o medalie de bronz.
Două concluzii importante legate de testarea modelelor A.I. pe problemele de matematică
Există încă mult scepticism în legătură cu aceste rezultate, iar faptul că modelele publice au avut rezultate atât de slabe sugerează că există o diferență semnificativă între instrumentele disponibile publicului și ceea ce poate face un model mai fin calibrat – diferență care justifică întrebări legitime despre motivul pentru care aceste modele mai inteligente nu pot fi extinse sau puse la dispoziția tuturor.
„Cu toate acestea, există două concluzii importante: modelele experimentale din laboratoare devin tot mai bune la probleme de raționament, iar OpenAI este condusă de niște tipi jalnici care n-au putut să aștepte înainte să fure gloria unor adolescenți”, conchid jurnaliștii de la Gizmodo.
FOTO articol: Boarding1now, Dreamstime.com.